Sexualisierte BilderfälschungenDie Deepfake-Flut

Twitter und Microsoft stehen in der Kritik: Über Musks Plattform gingen gefälschte Nacktbilder von Taylor Swift viral, die offenbar mit einem Microsoft-Dienst erstellt worden waren. Verantwortung wollen die Konzerne aber nicht übernehmen. Ein Kommentar.

Dieses Bild ist von Diffusion Bee generiert worden.

Seit vergangene Woche sexualisierte Deepfakes von Taylor Swift Social-Media-Plattformen fluteten, empören sich viele darüber – ihre Fans, aber auch Leute, denen die Musik des Superstars gleichgültig ist. Anders als in vorangegangenen Fällen treffen die Bilder auf breite Ablehnung. Selbst das Weiße Haus in Washington zeigt sich „besorgt“ über diese Entwicklung. Viele fordern jetzt wieder strengere Gesetze und Strafen für solche Fälschungen.

Von 4Chan, Telegram und anderen dunklen Winkeln des Netzes aus gelangten die Bilder auf X (ehemals Twitter). Dort häuften sie Millionen von Klicks an, bevor die Plattform es schaffte, sie viele Stunden später zu löschen. Zugleich ließen die Fans von Swift nicht locker: Sie setzten abertausende Meldungen ab, fluteten Twitter und andere Plattformen mit echten Bildern ihres Stars und meldeten oft auch die Weiterverbreiter der Fakes.

Dabei ist fast nichts an diesem Umstand neu. Seit Jahren warnen Fachleute vor den sogenannten Deepfakes und betonen, dass die Technologie vor allem Frauen trifft. Diese nicht-einvernehmlichen sexualisierten Bilder verbreiteten sich derweil wie eine Epidemie im Netz. Es gibt dezidierte Foren und Chat-Gruppen, in denen sich Nutzer zu den besten Werkzeugen und Tricks austauschen, ihre Fähigkeiten verfeinern, „Face Sets“ ihrer liebsten Celebrities teilen oder Aufträge entgegennehmen. Aus der einstigen Nische wurde ein florierender Geschäftszweig.

Künstliche Intelligenz

Wir schrieben schon über maschinelles Lernen, bevor es ein Hype wurde. Unterstütze unsere Arbeit!

Ein mäßig kreativer Prompt reicht

Neu sind am Fall der Swift-Fake-Bilder höchstens die immer neuen technologischen Möglichkeiten. Sie machen es auch für Laien beständig einfacher, Bilder und Videos zu erzeugen, die sich von echten Aufnahmen kaum noch unterscheiden lassen. Zu den klassischen „Face Swaps“-Deepfakes, die das Gesicht einer Person ohne deren Zustimmung in eine pornografische Szene montieren, kommen jetzt noch die Bildgeneratoren von OpenAI, Midjourney, StableDiffusion. Im konkreten Fall traf es unter anderem Microsoft, dessen Text-zu-Bild-Generator mit dem Namen Designer Recherchen von 404 Media zufolge genutzt wurde, um die Swift-Varianten zu erstellen. Dahinter steht das Modell DALL-E 3 von OpenAI.

Waren vor ein paar Jahren noch ein Computer mit guter Rechenleistung und einige technische Fähigkeiten notwendig, um das Gesicht einer Person in eine Porno-Szene zu montieren, so reicht jetzt ein mäßig kreativer Prompt auf einer Website.

Zwar versuchen die Macher*innen der neuen Generatoren, das Schlimmste zu verhindern. Auch Microsoft stellt für Designer einen „Code of Conduct“ bereit, gegen den offenkundig verstoßen wurde. Allerdings überprüft Microsoft nicht wirksam, ob dieser Code auch eingehalten wird. Das ist auch nicht vorgesehen, denn das müssten Menschen tun – und das ist teuer. So reichen schon simple Umschreibungen von sexuell expliziten Posen aus, um Bilder zu generieren, wie sie im Fall von Swift nun in allen Timelines zu sehen waren.

Gefälschte Nacktbilder von Mädchen sorgen für Aufschrei

Die Kosten sinken

Und so sind sexualisierte Deepfakes endgültig im gesellschaftlichen Mainstream angekommen. Es ist eine einfache Formel, mit der sich diese Entwicklung schon vor Jahren errechnen ließ. Die Stanford-Forscherin Rene DiResta fasst sie so zusammen: „Wie die sozialen Medien die Kosten für die Verbreitung senken, so senkt die generative KI die Kosten für die Erstellung.“

Multipliziert man das noch mit dem Umstand, dass X seit der Übernahme durch Elon Musk sein Inhaltemoderationsteam weitgehend abgeschafft hat, dann ergibt sich daraus genau die toxische Situation, die sich jetzt vor den Augen der Öffentlichkeit abspielt. Und die nun mit dem neuesten Skandal eine Art Kipppunkt erreicht hat.

Dabei steht Swift nicht erst neuerdings im Visier. Im Gegenteil: Sie war von Beginn an eines der beliebtesten Ziele für sexualisierte Deepfakes. Doch inzwischen muss man nicht mal berühmt sein, um in die Schusslinie zu geraten. Deepfakes zu erstellen ist so einfach und billig geworden, dass sich selbst Kinder zum Spaß damit vergnügen. Die Fälle aus den USA und Spanien, die zuletzt die größte Aufmerksamkeit erregten, betrafen Kinder: Sie hatten mit Hilfe von anderen Online-Diensten Nacktbilder ihrer Mitschülerinnen erstellt und geteilt. Täter wie Betroffene waren teils erst elf Jahre alt.

Reaktion auf Kritik

Sowohl Twitter als auch Microsoft sehen sich mal wieder harscher Kritik ausgesetzt, wie immer nach solchen Skandalen. Gegen die selbstauferlegten Twitter-Regeln verstießen die Swift-Fake-Bilder ohne Zweifel. Es war augenscheinlich nur niemand da, der sie hätte schnell entfernen können. Und dann tat der Trend-Automatismus sein Übriges: Der Name des Superstars wurde jedem Einzelnen stundenlang als „trending topic“ eingeblendet und erregte damit noch mehr Aufsehen. Die Suche nach „Taylor Swift“ ist bei Musks Plattform nun vorerst deaktiviert.

Bei Microsoft betont man die niedergeschriebenen Regeln, die mit der Nutzung von Designer und anderen OpenAI-Diensten einhergehen. Aber wie Menschen das angebotene Werkzeug nutzen, bleibt ihnen überlassen. Verantwortung dafür will Microsoft nicht übernehmen. Die teilweise in die generierten Bilder eingelassenen Provenienzdaten, die Bildursprünge belegen sollen, betreffen nur bestimmte Formen der Bildveränderung, die im Swift-Fall nicht genutzt wurden. Der Konzern hat auf die Schnelle allerdings ein paar Änderungen vorgenommen, damit der Zufluss neuer Swift-Deepfakes gestoppt wird: Die zuvor genutzten einfachen Wortvariationen zum Produzieren der Porn-Bilder funktionieren nun nicht mehr.

Die Zahnpasta ist raus aus der Tube, niemand bekommt sie da wieder rein. Was kann man also noch tun? Vielleicht die Kosten für jene erhöhen, die sie da rausgedrückt haben. Der allgemeinen Diffusion von Verantwortung, die wir gerade wieder beobachten können, könnten Gesetzgeber begegnen. Microsoft, OpenAI und alle die anderen, die mit generativer KI gute Geschäfte machen wollen, könnten sie stärker zur Verantwortung ziehen.

Schärfere Gesetze schaden sicher nicht. Mit der geplanten EU-Richtlinie zu Gewalt an Frauen sollen erstmals explizit auch das Erstellen und Teilen von nicht-einvernehmlichen sexualisierten Deepfakes unter Strafe stehen – in der gesamten EU. Damit wird man mit Sicherheit nicht verhindern, dass solche Bilder weiter erstellt werden, aber es sendet ein Signal, wie eine Gesellschaft dazu steht.

Zumindest einige verfolgen sehr genau, was auf Gesetzesebene passiert. Ein Thread in einem der beliebtesten Foren heißt: „Anti-Deepfake-Gesetzgebung beobachten“. Dort heißt es: „Jungs, wir halten Ausschau nach Gesetzesvorschlägen, geben Tipps, wie wir uns über die Entwicklungen in der Gesetzgebung auf dem Laufenden halten können, und diskutieren, wie wir unsere Arbeit fortsetzen können.“

32 Ergänzungen

  1. FYI

    A 2019 deepfake detection study by Deeptrace Labs found that 96 percent of identified deepfake videos were nonconsensual porn of mostly celebrity women. Pornographic or not, however, deepfakes are distortions of real people and are often identifiable as the original human subjects.
    https://regmedia.co.uk/2019/10/08/deepfake_report.pdf

    https://www.lawfaremedia.org/article/human-subjects-protection-in-the-era-of-deepfakes

    Deepfakes are convincing digital forgeries—manipulated or generated images, video, and audio—created by artificial intelligence (AI). Last year, the U.S. military took a nearly unprecedented step by declaring its interest in deepfake technology specifically for offensive purposes. U.S. Special Operations Command (USSOCOM)—which is made up of the most exceptional units from the Army, Marine Corps, Navy, and Air Force—released an update in a procurement document to explicitly solicit technologies that “[p]rovide a next generation of ‘deep fake’ or other similar technology to generate messages and influence operations via non-traditional channels in relevant peer/near peer environments.”

  2. 1. Wenn mittels public-Ki-prompts Schaden entsteht, so haften die Betreiber des „prompts“ dafür vollumfänglich.
    2. Wenn mittels public-Ki-prompts kriminelle Handlungen begangen werden, kann dem „prompt“ die Betriebserlaubnis entzogen werden.

    Die dafür notwendigen gesetzlichen Voraussetzungen sind auf EU-Ebene zu schaffen und von den Mitgliedsstaaten umzusetzen.

    1. Müsstest Du mal definieren, was public-KI-Prompts sein sollen. Was ist mit der entsprechenden Software, die auf privaten Rechnern läuft?

      1. > Müsstest Du mal definieren, was public-KI-Prompts sein sollen

        Müsstest Du mal definieren, was Du mit „Ein mäßig kreativer Prompt reicht“ im Zusammenhang mit „offenbar mit einem Microsoft-Dienst erstellt worden“ gemeint hast.

          1. Der Artikel ist hinter einer Anmeldeschranke.

            Aber ich vermute anonymous meint nicht was du mit „kreativ“ meinst, sondern das man das generieren von KI-Inhalten durchaus überwachen könnte. Da jede Eingabe ja entsprechend geloggt wird und in der Regel auch mit einem Account verbunden ist. Oder wie es im Artikel steht „offenbar mit einem Microsoft-Dienst erstellt worden“ sind.

            Ich bin kein KI Experte, aber meine Versuche mich bei einem Anbieter ohne Telefonnummer anzumelden sind gescheitert. Es kann aber sein, dass ich dafür nicht findig genug war (der Druck es zu wollen, war auch nicht sonderlich groß). Und läuft lokale Software dann tatsächlich komplett lokal?
            Was ich mir bei KI nicht vorstellen kann, da dazu ja enorme Daten notwendig sind, die darüber hinaus auch der „Schatz“ der ganzen Geschichte sind.

          2. „Eingaben Loggen“

            Die Clouddienste machen das sogar, und es ist ein weiterer Datenalbtraum. Ob Suchmaschinen oder Social media schlimmer sind als die Interaktion bei KI-Systemen, steht noch im Raume. Ich vermute dass (Cloud-) KI schlimmer ist bzw. wird, da präziser, intimer, und mit mehr Themen bedacht wird wird.

            ABER: irgendwie KI allgemein wird schon auch ad-hoc auf kleinerer Hardware laufen. Für Pornospielchen wird das wohl auch bald hinreichen, wenn vielleicht auch nicht makellos, so ist da dann nicht mehr viel mit Rückverfolgung, da das offensichtlich dann zu 100% unter Nutzerkontrolle ist.

            Diese Diskussion ist ja entfernt verwandt zur Copyright bzw. Künstlerschutzdiskussion. Da gibt es vor allem Horrorszenarien. Viele Konzepte sind nutzlos, wenn z.B. hauptsächlich Celebtrities profitieren, vgl. spotify.

            In einigen Bereichen wird man aufgrund von KI schneller und schneller sein müssen, und das dürfte einigen keine Spass bringen.

  3. Zweiter Absatz beinhaltet „gelangten die Aufnahmen“, aber es sind eben keine „Aufnahmen“ (impliziert reale Photos) sondern generierte Bilder.

  4. Photoshop? Papier und Bleistift? Was ein Theather…

    Durch KI wird jetzt jedes Bild endgültig seine Schlagkraft verlieren, da man behaupten kann es sei Fake. Das ist eine gute Entwicklung. Niemand wird mehr wirklich erpressbar sein.

    Gruseliger ist es dann einige eine autoritäre Herangehensweise fordern, weil einige wenige in ihrem stillen Kämmerlei irgendwelche Bilder von Stars generieren.

    1. „Durch KI wird jetzt jedes Bild endgültig seine Schlagkraft verlieren, da man behaupten kann es sei Fake. Das ist eine gute Entwicklung. Niemand wird mehr wirklich erpressbar sein.“

      Das mag auf Vulkan vielleicht zutreffen, aber wir sind halt auf der Erde. Und nicht bei StarTrek.

  5. Ich habe die Fotos nicht gesehen, kann aber nicht nachvollziehen wie man mit den öffentlichen KIs wie Dall-E oder Midjourney Pornografische Bilder herstellen kann, erst recht nicht mit Gesichtern von Promis. Das geht m.E. doch nur mit lokalen KI-installationen, die selber trainiert werden müssen um entsprechende Prompts auszugeben, oder liege ich da falsch?

  6. Der einzig sinnvolle Ansatzpunkt:
    Eine KI darf nicht wissen wie eine Person aussieht.
    Eine KI darf nicht über eine Upload-Funktion mit Gesichtern von Personen gefüttert werden.
    Eine KI darf nicht Open Source sein.
    Das war’s schon. Problem gelöst…

    Das ist natürlich eine einmalige Gelegenheit um Microsoft endlich dazu zu bringen unsere Rechner regelmäßig auf verbotene Inhalte zu scannen. Und das Internet zu überwachen wer was postet. Wahrscheinlich sind genau die Politiker die mehr Überwachung fordern auch die die die Entwicklung von KI-Systemen fördern. KI-Systeme als Grund der Überwachung und KI-Systeme als Lösung zur Überwachung. Und die armen Opfer von Deepfakes als Aufhänger. Das ist ja perfekt! :-)

    1. „Eine KI darf nicht Open Source sein.“

      Das ist hoffentlich ein dummer Witz.
      Sollte es keiner sein hast du gerade den Vorschlag für ein Technologie-Monopol gemacht wie man es in dystopischen Scifi-Filmen zu sehen bekommen würde: nur noch Konzerne dürfen KI, nur noch Regierungen dürfen Software, Computer nur mit „Schein“ und müssen wie Waffen registriert werden, und das reine Wissen zu KI sowieso verboten und weggesperrt.
      Und wir gehen leider jeden Tag weiter in die Richtung, mit Cloud-Only-Diensten und digitalen Gütern die man gar nicht mehr wirklich besitzen kann …

      1. > Das ist hoffentlich ein dummer Witz.

        Wenn einem das Lachen im Hals stecken bleibt, dann ist das der Moment der Erkenntnis.
        Es kommt darauf an, was man danach daraus macht.

  7. AI per Gesetz zu „regulieren“, wird fehlschlagen. Es ist so als wolle man Bleistifte „regulieren“, weil damit in Schulen Penise auf Tische gemalt werden.

    Die echte Gefahr, finde ich, ist auch nicht, dass das Taylor Swift passiert ist, die von ihrer Berümtheit und ’ner Miliarde Fans beschützt wird, sondern das Lieschen Müller Opfer sein wird.

    Vor etwa einem Jahr wurde ein internes Memo von Google veröffentlicht in dem sich besorgt darüber geäussert wird, das Amateure, auf Consumer Hardware, in kurzer Zeit, AI-Models und LoRas trainieren und verbreiten, die erstaunlich hohe qualitaet liefern. Seitdem ist die AI Comunity stark gewachsen, die Tools haben sich verbessert, einige davon kann man sogar auf Smartphones ausführen.

    D.h. jeder halbwegs bewanderte PC Besitzer kann das heute Lokal selbst machen.
    Für den Einstieg in die AI Bildgenerierung braucht man nur:

    1. Eine halbwegs aktuelle Grafikkarte
    2. AUTOMATIC1111
    3. Ein 4GB Model von Hugging Face

    Face Swaps gibt es nicht erst seit gestern. Auch nicht erst seit Photoshop. Gegen gefälschte sexualisierte Deepfakes helfen, wird nur Erziehung, Aufklärung und evtl. hohe Strafen für die Täter. So wie das jetzt auch schon möglich ist. ganz ohne AI-Gesetz, gemacht von menschen die AI nicht verstehen und glauben [..] dass man die Zahnpasta wieder in die Tube bekommt.

    1. Man kann den kommerziellen Einsatz sehr wohl zu regulieren suchen, sowie alles, wo es wirkt. „Man“ will es vielleicht nicht, wie das so bei Hazardeuren üblich ist.

      Copyright ist ein Beispiel, das möglicherweise allerdings auch fehlschlagen wird, wegen schwammiger Grenzen.

      Trainingsdaten-Lieferketten wird schon interessanter. Vor allem wenn man diese ganzen (US-) „Non-Profit“ Unternehmungen mal kappt, da die offensichtlich nicht nachhaltig funktionieren. Ähnlicher Fehler wie mit Social Media und deren Geschäftsmodellen.

      Tatsächlich könnte es klüger sein, allerlei Friktion reinzubringen, nur um „den Übergang“ zu verlangsamen. Ansonsten wäre „Demokratisierung“ der einzige valide Ansatz. Spezialistenveranstaltungen aus Privathand, die die Daten aller Menschen benötigen, sind ein bischen wie die Chatkontrolle… es wird diejenigen freuen, die an die Daten herankommen.

      Es sind allerdings auch wild untschiedliche Anwendungen, von denen eben einige ihre eigene Datengrundlage kannibalisieren. Dieses durch die „Vernunft“ des Marktes regeln zu wollen, wäre absolut absurd. Wenn unsere Clowns nur einen Holzhammer haben, gibt es zwei Richtungen: 1. Zerfall und Wiederaufbau und 2. Absichtlicher „Zerfall“ und Wiederaufbau. Vorsicht dahingegen mit „Wiederaufbau“.

    2. Naja, die Analogie hinkt. Weil ein Bleistift durch die Handlung der Menschen zu etwas wird, und zwischen typischer alltäglicher Nutzung und den Problembereichen doch so einiges an Distanz ist.

      Bei Ki, kann die KI gerade zu dem Zweck gebaut sein, Pornos mit anderer Leute Gesichter zu schnitzen. Das ist kein Bleistift. Das ist ein Penis.

      1. Das muss man ja nicht gleich für Pornos verwenden. Man kann auch das Gesicht eines Schauspielers auf einen Stuntman montieren.

        Bei Sciencefiction gibt es sehr aufwendige Masken, da könnte man mit Gesichtsaustausch rangehen oder so einen Gesichtstausch in die Handlung integrieren.

        Am Ende ist es nur ein Werkzeug, das für verschiedene Dinge benutzt werden kann genau wie ein Bleistift.

        1. > Am Ende ist es nur ein Werkzeug, das für verschiedene Dinge benutzt werden kann genau wie ein Bleistift.

          Verharmlosung misslungen.

          Waffen sind auch „Werkzeuge“. Wenn vom Gebrauch gefährlicher Sachen Gefahren ausgehen, die gesellschaftlich nicht akzeptabel sind, dann ist eine Regulierung unausweichlich.

          1. >>> Waffen sind auch „Werkzeuge“. Wenn vom Gebrauch gefährlicher Sachen Gefahren ausgehen, die gesellschaftlich nicht akzeptabel sind, dann ist eine Regulierung unausweichlich.
            Korrekt. Das heißt ja auch nicht, dass „KI“ komplett verboten wird. Das wäre jetzt auch utopisch.

            Es bleibt allerdings ein schwieriges Feld, und bestimmte Deepfakes werden immer illegal bleiben aber auch immer irgendwie möglich sein.

            „Ownership of Faces“ wäre mal ein Ansatz ;). Man muss dann nachweisen, dass man entsprechende Lizenzen für gezeigte Gesichter besitzt, sonst kann Inhalt mit Gesichtern nicht veröffentlicht werden, oder es werden die Gesichter von Alice und Bob automatisch drübergesetzt. Naja, dann die Stimme von Menschen…

            Für Stars wird immer waas gehen. So könnte auf Basis ihrer Filme geprüft werden, ob eine Sequenz aus einem existierenden Film ist. Derzeit für jedermann zu teuer.

          2. „Autos“ ist uebrigens ein wesentlich besserer Vergleich als „Waffen“, und ein hervorragendes Beispiel, wie negativ die Ergebnisse fuer eine Gesellschaft bei mangelhafter Regulierung aus wirtschaftlichen Interessen sein koennen.

  8. Scheinbar hab ich die Bleistiftanalogie nicht gut genug erklärt.

    Vorweg:
    Ja, ich finde das alles auch widerlich, aber ich hoffe, das wir es als Gesellschaft schaffen die Täter zu Bestrafen anstatt sinnlose neue Regeln zu erschaffen über die sich die Täter nur kaputtlachen.

    Ein LoRA(für Low-rank Adaption) verändert das Ergebins einer AI. Man könnte sagen, das man nachträglich ein bestimmten Stil, ein Motiv, oder ein verhalten „erzwingt“. Z.B. gibt es LoRAs die nur Cartoon Bilder generieren. Ich wüsste nicht, wie man das technisch verhindern könnte. Es ist einfach die Methode, wie die AI benutzt wird.

    Man kann auch nicht verhindern, dass mit einem Bleistift ein Bild gemalt, oder einen Text geschreiben wird. Was ihr nun versucht ist, zu verhindern, dass man mit dem Bleistift Bilder malt. Nur Text schreiben ist erlaubt. Aber Wie soll das denn funktionieren? Wie soll man den Stift verändern, so dass malen unmöglich is, aber schreiben weiterhin funktioniert? Das geht nicht. Deshalb wird der Versuch scheitern.

    Wir regulieren übrigens nicht wirklich Autos, weil die dann nutzlos sein würden. Reguliert wird das verhalten der Fahrer. 120Km/h in der Stadt? Geht problemlos, aber wird bestraft. Bei Waffen ist das ein wenig anders. Viel mehr, als damit auf etwas schiessen, kann man nicht damit machen.. Mit einem Stift jemandem ein Auge ausstechen geht, ist aber Körperverletzung und nicht „Unsachgemässe verwendung eines Bleistifts“. Wenn wir Bleistifte in unserem Leben wollen, dann muessen wir damit leben, dass Kids damit Tische beschmieren könnten. :D

    Hier ist ein Link zu einer grossen und bekannten LoRA Comunity, wenn ihr euch ein Bild davon machen wollt was die so treiben:
    https://civitai.com/tag/lora

    Keine sorge, da sind keine Penise. Aber eine Tendenz zum schönen geschlecht ist schwer zu leugnen.
    @mod: Wenn trozdem unerwünscht, bitte Link entfernen.

    1. „Wir regulieren übrigens nicht wirklich Autos, weil die dann nutzlos sein würden.“

      Ein Blick in die StVZO wie auch Aufgabenstellung der KBA wäre hilfreich. Natürlich regulieren wir Autos, und natürlich könnten wir Autos sowie ihren Erwerb wie Nutzung auch noch weiter regulieren. Wäre für alle besser, aber die deutschen Wähler präferieren das Recht der Reichen.

      1. Es kommt mir so vor, als ob du es garnicht verstehen willst. Du gehst überhapt nicht auf meinen Punkt ein, nicht mal auf das Thema. Stattdessen sind wir nun bei „Recht der Reichen“ und „Autos sind schlecht“ Propaganda. Genau darum wird AI regulation scheitern. Starsinnige leute die ihre Agenda durchdrücken wollen. Ein schönes Beispiel.

        Dann komm ich eben nochmal rüber auf deine Bühne. Ein letzter Versuch.

        Fast alle AI wird Privat oder in der Privatwirtschaft betrieben, so auch die aus dem Artikel.

        Die „Straßenverkehrs-Zulassungs-Ordnung“ reguliert die zulassung von Fahrzeugen im öffentlichen Raum, auf Strassen. Wie weit das reicht, sieht man auf „privaten“ Kartbahnen und z.b. bei Bauern auf „privaten“ Feldern, wo 13 Jährige am Steuer von dingen sitzen duerfen, die 70Kmh fahren und gerade mal aus nem Motor nem Rahmen und 4 Rädern bestehen.

        Zu den Bauforschriften der StVZO sagt Wikipedia dies:

        Die Vorschriften zur Bauart von Kraftfahrzeugen in den §§ 32–62 StVZO sind sehr detailliert, jedoch durch konkurrierende EG-Richtlinien für die meisten Fahrzeugarten (PKW, LKW) oft nicht mehr anzuwenden. Auch die Bauartvorschriften für andere Fahrzeuge – insbesondere für Fahrräder –, §§ 63–67 StVZO, werden wegen Regelungen kritisiert, die den technischen Fortschritt behindern.

        Das ist genau mein Punkt ;)

        1. „Autos sind schlecht“ lesen da nur Leute, die wissen, dass Autos in der derzeitigen Form ein Riesenproblem sind, ihren Egoismus aber trotzdem ausleben wollen. YOLO.

          1. > YOLO = you only live once

            Die Frage ist doch die Schwelle, die eine Gesellschaft gerade noch verkraften kann, wenn zunehmend schädliche YOLOs unterwegs sind.

            Wenn Egoismus Einsicht verhindert, hat auch Erwachsenenbildung nur eine geringe Reichweite. Der Klassiker für Regulierung und Sanktionen.

    2. > die Bleistiftanalogie

      Die Analogie ist keine akzeptable, weil sie die Problematik völlig verharmlost, und kaum Vergleichbares als vergleichbar hinstellt. Zudem ist sie so vereinfachend, dass man damit höchstens gutgläubig Naive beeindrucken kann.

      Wer so den Kopf in den Sand steckt, möchte vielleicht anderen Sand in den Kopf streuen.

    3. Schlechte Gesetzgebung ist immer gefährlich. Aktionismus auch.
      Das muss aber gegenüber der Notwendigkeit zu regulieren abgewogen werden.
      Wir kommen um Fachlichkeit und Fähigkeit im Gesetzgebungsprozess nicht herum, sonst landen wir in „The Time Maschine“.

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Bitte keine reinen Meinungsbeiträge! Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.